بزرگترین خطرات هوش مصنوعی از نظر مردم
هوش مصنوعی با سرعتی بیسابقه در حال پیشرفت است و تأثیرات عمیقی بر جنبههای مختلف زندگی انسانی، از صنعت و اقتصاد گرفته تا جامعه و اخلاق، دارد. درحالیکه مزایای هوش مصنوعی قابلتوجه است، نگرانیها و خطرات بالقوهای نیز در ارتباط با توسعه و کاربرد آن وجود دارد.
هوش مصنوعی با سرعتی بیسابقه در حال پیشرفت است و تأثیرات عمیقی بر جنبههای مختلف زندگی انسانی، از صنعت و اقتصاد گرفته تا جامعه و اخلاق، دارد. درحالیکه مزایای هوش مصنوعی قابلتوجه است، نگرانیها و خطرات بالقوهای نیز در ارتباط با توسعه و کاربرد آن وجود دارد.
مانند هر پیشرفت تکنولوژیکی، ابزارهای هوش مصنوعی مولد مانند ChatGPT، تولیدکننده تصویر Midjourney یا Claude و ربات گفتگوی ایجاد شده توسط استارتاپ هوش مصنوعی Anthropic، برای بهرهوری و ایجاد محتوا عالی هستند ولی نباید کلاهبرداری و سوءاستفاده از آنها را که به طور فزایندهای رو به رشد است، نادیده گرفت. در میان این موج جدید محتوای مخرب و دیپفیک بهویژه قابلتوجه است. این قطعات محتوای سمعی و بصری که به طور مصنوعی تولید شدهاند شامل کلاهبرداری از رأیدهندگان از طریق جعل هویت سیاستمداران یا ایجاد تصاویر مستهجن غیراجتماعی از افراد مشهور است. همانطور که یک نظرسنجی اخیر توسط مایکروسافت نشان میدهد، تقلبها، کلاهبرداریها و سوءاستفادهها چیزی است که کاربران آنلاین در سراسر جهان بیشتر نگران آن هستند.
۷۱ درصد از پاسخدهندگان در ۱۷ کشوری که توسط مایکروسافت مورد بررسی قرار گرفتند، تا حدودی بسیاری نگران کلاهبرداریهای آنلاین به کمک هوش مصنوعی بودند، این کلاهبرداریها به احتمال زیاد به جعل هویت یک شخص در انظار عمومی، یک مقام دولتی یا یکی از آشنایان نزدیک پاسخدهندگان مرتبط است.
در رتبه دوم و سوم به ترتیب، دیپفیک و سوءاستفاده جنسی یا آنلاین با ۶۹ درصد قرار دارد.
توهمات هوش مصنوعی که بهعنوان چت رباتهایی مانند ChatGPT تعریف میشوند که به دلیل مشکلات مربوط به مطالب آموزشی، پاسخهای بیمعنی را بهعنوان حقایق ارائه میکنند، در رتبه چهارم قرار دارند و نگرانیهای مربوط به حفظ حریم خصوصی دادهها که مربوط به آموزش مدلهای زبان بزرگ بر روی دادههای در دسترس عموم کاربران است، با ۶۲ درصد در جایگاه پنجم قرار دارد.
نمونههایی از تعصب هوش مصنوعی در دنیای واقعی به ما نشان میدهند که وقتی دادهها و الگوریتمهای تبعیضآمیز در مدلهای هوش مصنوعی ساخته میشوند، مدلها سوگیریها را در مقیاس به کار میگیرند و اثرات منفی ناشی از آن را تقویت میکنند، در اینجا نیز تعصب و سوگیری در رتبه ششم با ۶۰ درصد قرار دارد.
در نهایت نیز بهطورکلی، ۸۷ درصد از پاسخدهندگان حداقل تا حدودی نگران یک سناریوی مشکلساز هوش مصنوعی بودند.
علیرغم بازار عظیم هوش مصنوعی، که توسط منابع مختلف بین ۳۰۰ تا ۵۵۰ میلیارد دلار در سال ۲۰۲۴ تخمین زده میشود، نتایج نظرسنجی نشان میدهد که نادیدهگرفتن خطرات و دامهای بالقوه آن میتواند برای جامعه در کل مضر باشد. این امر بهویژه در زمینههای حساس مانند سیاست صادق است. با نزدیکشدن به فضای انتخابات آمریکا، چشمانداز رسانههای اجتماعی مملو از اطلاعات نادرست تولید شده مصنوعی خواهد بود.
درحالیکه هوش مصنوعی ظرفیتهای عظیمی برای بهبود زندگی انسانها دارد، اما خطرات و چالشهای جدی نیز به همراه دارد که نیازمند توجه و بررسی دقیق هستند. برای مقابله با این خطرات، تدوین قوانین و مقررات مناسب، افزایش آگاهی عمومی، و پژوهشهای مستمر در زمینه اخلاقیات و امنیت هوش مصنوعی ضروری است. همکاری بینالمللی نیز در ایجاد چارچوبهای نظارتی مؤثر برای اطمینان از استفاده امن و مسئولانه از هوش مصنوعی نقش حیاتی دارد.
مانند هر پیشرفت تکنولوژیکی، ابزارهای هوش مصنوعی مولد مانند ChatGPT، تولیدکننده تصویر Midjourney یا Claude و ربات گفتگوی ایجاد شده توسط استارتاپ هوش مصنوعی Anthropic، برای بهرهوری و ایجاد محتوا عالی هستند ولی نباید کلاهبرداری و سوءاستفاده از آنها را که به طور فزایندهای رو به رشد است، نادیده گرفت. در میان این موج جدید محتوای مخرب و دیپفیک بهویژه قابلتوجه است. این قطعات محتوای سمعی و بصری که به طور مصنوعی تولید شدهاند شامل کلاهبرداری از رأیدهندگان از طریق جعل هویت سیاستمداران یا ایجاد تصاویر مستهجن غیراجتماعی از افراد مشهور است. همانطور که یک نظرسنجی اخیر توسط مایکروسافت نشان میدهد، تقلبها، کلاهبرداریها و سوءاستفادهها چیزی است که کاربران آنلاین در سراسر جهان بیشتر نگران آن هستند.
۷۱ درصد از پاسخدهندگان در ۱۷ کشوری که توسط مایکروسافت مورد بررسی قرار گرفتند، تا حدودی بسیاری نگران کلاهبرداریهای آنلاین به کمک هوش مصنوعی بودند، این کلاهبرداریها به احتمال زیاد به جعل هویت یک شخص در انظار عمومی، یک مقام دولتی یا یکی از آشنایان نزدیک پاسخدهندگان مرتبط است.
در رتبه دوم و سوم به ترتیب، دیپفیک و سوءاستفاده جنسی یا آنلاین با ۶۹ درصد قرار دارد.
توهمات هوش مصنوعی که بهعنوان چت رباتهایی مانند ChatGPT تعریف میشوند که به دلیل مشکلات مربوط به مطالب آموزشی، پاسخهای بیمعنی را بهعنوان حقایق ارائه میکنند، در رتبه چهارم قرار دارند و نگرانیهای مربوط به حفظ حریم خصوصی دادهها که مربوط به آموزش مدلهای زبان بزرگ بر روی دادههای در دسترس عموم کاربران است، با ۶۲ درصد در جایگاه پنجم قرار دارد.
نمونههایی از تعصب هوش مصنوعی در دنیای واقعی به ما نشان میدهند که وقتی دادهها و الگوریتمهای تبعیضآمیز در مدلهای هوش مصنوعی ساخته میشوند، مدلها سوگیریها را در مقیاس به کار میگیرند و اثرات منفی ناشی از آن را تقویت میکنند، در اینجا نیز تعصب و سوگیری در رتبه ششم با ۶۰ درصد قرار دارد.
در نهایت نیز بهطورکلی، ۸۷ درصد از پاسخدهندگان حداقل تا حدودی نگران یک سناریوی مشکلساز هوش مصنوعی بودند.
علیرغم بازار عظیم هوش مصنوعی، که توسط منابع مختلف بین ۳۰۰ تا ۵۵۰ میلیارد دلار در سال ۲۰۲۴ تخمین زده میشود، نتایج نظرسنجی نشان میدهد که نادیدهگرفتن خطرات و دامهای بالقوه آن میتواند برای جامعه در کل مضر باشد. این امر بهویژه در زمینههای حساس مانند سیاست صادق است. با نزدیکشدن به فضای انتخابات آمریکا، چشمانداز رسانههای اجتماعی مملو از اطلاعات نادرست تولید شده مصنوعی خواهد بود.
درحالیکه هوش مصنوعی ظرفیتهای عظیمی برای بهبود زندگی انسانها دارد، اما خطرات و چالشهای جدی نیز به همراه دارد که نیازمند توجه و بررسی دقیق هستند. برای مقابله با این خطرات، تدوین قوانین و مقررات مناسب، افزایش آگاهی عمومی، و پژوهشهای مستمر در زمینه اخلاقیات و امنیت هوش مصنوعی ضروری است. همکاری بینالمللی نیز در ایجاد چارچوبهای نظارتی مؤثر برای اطمینان از استفاده امن و مسئولانه از هوش مصنوعی نقش حیاتی دارد.